Sommaire : Trois questions à Jean-Christophe Lonchampt (Intel )| L'actualité de la semaine | Théories et concepts | Enseignement | La recherche en pratique | Entreprises | Manifestations | Le livre de la semaine | Détente
|
|
|
|
Asti-Hebdo : Basé à Sophia-Antipolis, vous représentez en Europe Pat Gelsinger, Chief technical officer. Pouvez vous nous préciser les grands axes de recherche de votre groupe ?
Jean-Christophe Lonchampt : La R&D représente pour nous un investissement annuel de 4 milliards de dollars, dans plus de 75 laboratoires avec 7000 professionnels. Pour l' Europe, 250 personnes en Russie travaillent en R&D pour Intel. En France, la mission du petit laboratoire de Sophia Antipolis n'est pas négligeable puisqu'il travaille à la certification des produits sans fil et bénéficie de la proximité de l'Etsi. A Barcelone, est basé un joli laboratoire de microarchitecture et basses consommations. Le recrutement est constant et il y a des opportunités de carrière, même si les pays émergents à forte croissance tels la Chine, l'Inde et la Russie passent avant l'Europe de l'Ouest... voire les Etats Unis.
Quel que soit le thème (silicium, microarchitecture, plates-formes, logiciel, réseaux et communications) nous distinguons trois niveaux d'activités en recherche et développement : la recherche fondamentale (objectifs de 10 à 15 ans), une recherche à moyen terme (de 3 à 10 ans) et une recherche au plus près des "business units", avec des objectifs de 0 à 5 ans.
30% de nos laboratoires se consacrent aux technologies de communication, et d'une manière générale le logiciel (couches hautes et couches basses) représente la moitié de notre effort. Nous venons par exemple d'ouvrir en Russie un laboratoire dédié aux protocoles sans fil (wireless). Il est chargé en particulier de résoudre les problèmes d'errance (roaming) liés à l'installation des réseaux locaux de ce type. Mais la partie fondamentale liée au silicium reste dominante.
A.H. : Quand la loi de Moore aura-t-elle atteint ses limites quantiques?
J.-C.L: La loi de Moore a encore de beaux jours devant elle! Au moins quinze bonnes années dans le silicium, et nous allons dans l'UV extrême. Au delà, nous avons prévu des budgets pour le calcul quantique. Contrairement à ce qui a pu être dit, nous n'avons pas ralenti le rythme de sortie des processeurs 64 bits, ni nos activités de supercalculateurs. Nous investissons beaucoup sur la dissipation de la chaleur, et développons des architectures qui prennent constamment en compte les consommations d'énergie (power aware (1)).
Nous nous sommes toujours beaucoup impliqués dans le grand calcul et les réseaux pair-à-pair (peer to peer), et nous continuons d'afficher notre intérêt pour ce domaine, tout particulièrement aujourd'hui avec les grilles. Des "Intel fellows" comme Dave Kuck ou Justin Ratner sont des spécialistes de microarchitecture appliquée au grand calcul.
Parmi les projets à moyen terme, signalons typiquement Silicon Radio et Radio Free Intel. Il s'agit d'implanter plusieurs protocoles de communication sans fil sur une même puce de silicium, en technologie CMos. Notre objectif est de rassembler les différents protocoles radio dans une seule couche, ce qui permettra à l'utilisateur de passer d'un secteur à l'autre sans s'en apercevoir. Nous pensons mener ces travaux à terme d'ici à 2007, avant la fin de la décennie.
Ce type de technologie nécessite un gros effort de miniaturisation. Mais les applications vont jusqu'aux réseaux intelligents de capteurs en informatique proactive (proactive computing) dans la domotique ou maison intelligente. Nous prévoyons d'intégrer des "business models" dans un grand nombre d'objets. Et ces mêmes technologies s'appliquent en robotique, en interaction homme-machine, et même en biologie de précision, au niveau nanotechnologique : identification de molécules et d'ADN au niveau nanotechnologique. Nous disposons déjà d'un savoir-faire substantiel à ce niveau.
Pour vos lecteurs qui veulent suivre l'évolution de nos centres d'intérêt, le mieux est de visiter régulièrement le site de notre forum de développement (IDF).
A.H. : Comment gérez-vous une telle variété de thèmes de recherche ?
J.-C.L. : Chez nous, la R&D est très décentralisée contrairement à celle d'IBM. Cela facilite les relations avec le monde extérieur, industriel et universitaire. Au niveau académique, nous collaborons avec certaines universités sur les changements de curriculum proposés aux étudiants, via des donations d'équipement (pour les réseaux locaux sans fil à l'Université de Grenoble, par exemple). Certaines donations vont à de petits projets qui visent à construire des prototypes. Certains ont été financés par notre laboratoire de Sophia Antipolis.
L'autre volet important, est organisé de concert avec les chercheurs seniors, les "fellows", dont un grand nombre sont installés dans l'Oregon, auprès de notre CTO. Il consiste à proposer des bourses (grants) à des universités européennes, sur des thèmes très particuliers où elles font preuve d'une expertise spécifique. Ces coopérations se décident de gré à gré, à la discrétion des fellows. Moi-même, je suis en relation avec certaines de ces équipes.
Nous sommes en liaison avec des start up et certains centres de recherche. En France, nous avons investi dans deux spin off de l'Inria, Realviz et Esterel Technology. Nous avons fait ces investissements parce qu'ils créent un lien très solide avec cet institut. Ce sont des premiers pas d'une collaboration. Nous discutons régulièrement avec le Leti à Grenoble, le Fraunhofer institute en Allemagne, ou I-Make en Belgique (pour la technologie du silicium).
Ces liens avec l'industrie et les instituts de recherche ont des objectifs déterminés assez souplement, mais toujours sous condition d'aller dans le sens de notre stratégie. Ils s'inscrivent dans le planning de nos laboratoires, défini par les fellows, dont un grande nombre travaillent dans l'Oregon auprès du CTO. Ils sont concrétisés par notre filiale d'investissement (Intel Capital). Nous sommes particulièrement satisfaits de nos investissements en Russie, par exemple et, d'une manière générale, ce système fonctionne assez bien et n'a pas été affecté par l'éclatement de la bulle Internet.
Propos recueillis par Mireille Boris
(1) Ce concept de "power aware" (conscient de sa consommation) fait l'objet d'abondants travaux. On peut en avoir une idée en lisant les actes des colloques Pacs, dont l' édition 2002 est récemment parue chez Springer.
(Communiqué du Cigref) Le consortium Eurid, représenté par Marc Van Wesemael sera présent aux seconds États généraux européens du nommage sur internet le 3 juillet 2003. Association sans but lucratif, Eurid a été désignée le 22 mai dernier comme gestionnaire du « top level domain » (TLD) « .eu » par la Commission européenne. Le « .eu » va devenir l'extension des sites web et adresses électroniques paneuropéens à l'image du « .fr » en France ou du « .uk » au Royaume-Uni. L'atelier 7 intitulé « La bonne stratégie de nommage pour une entreprise européenne » accueillera les principaux acteurs ayant participé au débat autour du « .eu » depuis plus d'un an.
Le groupe Méta (Métaheuristiques, théorie et applications), groupe de travail commun à l’association Roadef et aux GdR ALP et Macs du CNRS, organise avec le soutien de la Section automatique du Club EEA le premier séminaire francophone sur l'optimisation par essaim particulaire (OEP).
Le séminaire se tient à Paris, au Carré des sciences (ministère de la Recherche, entrée par le 25 rue de la Montagne Sainte-Geneviève) , le jeudi 2 octobre 2003. L'inscription, gratuite et ouverte à tous, se fait en ligne sur le site . A l'issue de ce séminaire avec "tutoriel" le matin, exposés et atelier l’après-midi, les participants devraient être capables d'écrire leur propre version, adaptée à leurs besoins spécifiques
Il s'agit d'une technique encore peu connue en France, fondée sur la coopération entre des agents (les particules), qui peuvent être vus comme des "animaux" aux capacités assez limitées (peu de mémoire et de facultés de raisonnement). L'échange d'informations entre ces agents rudimentaires permet néanmoins de résoudre des problèmes difficiles : c'est le cas, par exemple, chez les abeilles vivant en essaim (exploitation de sources de nourriture, construction de rayons, etc.).
Simple à comprendre, à programmer et à utiliser, la méthode se révèle particulièrement efficace pour les problèmes d'optimisation non linéaire, à variables continues, entières ou mixtes. Elle a fait ses preuves dans des domaines comme la régulation de systèmes électriques, la conception d'ailes d'avions ou l'analyse d'images.
On trouve ces termes dans la littérature commerciale, notamment les annonces et catalogues des fournisseurs de micro-informatique. Il s'agit d'un format matériel de présentation des PC, dans un coffret presque cubique.
Le concept a été lancé par le constructeur Shuttle en 2002. Les termes "barebone" et "mini PC" semblent presque synonymes, bien que "mini PC" soit parfois pris dans un sens plus large, incluant notamment de petits portables, un peu plus gros que les machines de poche.
Le Monde du 19 juin consacre un cahier spécial de dix pages à
la photo numérique, sous la direction de Michel Alberganti. Au sommaire
:
- le boom du numérique : l'électronique revendique la succession
de l'argentique,
- l'album de famille sanctifié et menacé,
- le Japon, leader du numérique,
- la maturité des appareils,
- la photo par téléphone.
La presse annonce régulièrement l'installation d'automates.
- Radars automatiques : bientôt un tous les 2 km sur les autoroutes A
86, A1 et A3 (Le parisien du 11 juin) qui précise "Le préfet
Michel Sappin vient d'annoncer la mise en place de ces détecteurs capables
d'enregistrer l'infraction et, grâce à un système informatique,
d'envoyer directement les PV par la Poste".
- Jeux de hasard. "Feu vert pour 150 nouvelles machines à sous à Enghien" titre Daniel Pestel dans Le Parisien du 12 juin. il commente : A partir du week-end du 14 juillet, les amateurs de bandits manchots devraient disposer de 150 nouvelles machines au casino d'Enghien". Actuellement, les 130 machines exploitées réalisent un chiffre d'affaires de 34,55 millions deuros. Les nouvelles machines conduiront à embaucher dix personnes.
Mathématiques discrètes. C.S. Calude, M.J. Dinneen, V. Vajnovszki (Eds.) : Discrete mathematics and theoretical computer science 4th International conference, DMTCS 2003, Dijon, France, July 7-12, 2003. Proceedings
Calcul génétique et évolutionnaire.
E. Cantú-Paz, J.A. Foster, K. Deb, L.D. Davis, R. Roy, U.-M. O’Reilly,
H.-G. Beyer, R. Standish, G. Kendall, S. Wilson, M. Harman, J. Wegener, D. Dasgupta.
M.A. Potter, A.C. Schultz, K.A. Dowsland, N. Jonoska, J. Miller (Eds.) :
Genetic and evolutionary computation - Gecco 2003 Genetic and evolutionary
computation conference, Chicago, IL, USA, July 12-16, 2003.
Proceedings,
Part I
et
E. Cantú-Paz, J.A. Foster, K. Deb, L.D. Davis, R. Roy, U.-M. O’Reilly,
H.-G. Beyer, R. Standish, G. Kendall, S. Wilson, M. Harman, J. Wegener, D. Dasgupta.
M.A. Potter, A.C. Schultz, K.A. Dowsland, N. Jonoska, J. Miller (Eds.):
Genetic and evolutionary computation - Gecco 2003 Genetic and evolutionary
computation conference, Chicago, IL, USA, July 12-16, 2003.
Proceedings,
Part I
Réécriture, techniques et applications. R. Nieuwenhuis (Ed.): Rewriting techniques and applications 14th international conference, RTA 2003, Valencia, Spain, June 9-11, 2003. Proceedings
Modélisation des utilisateurs P. Brusilovsky, A. Corbett, F. de Rosis (Eds.): User modeling 2003 9th international conference, UM 2003, Johnstown, PA, USA, June 22-26, 2003. Proceedings
Raisonnement par cas. K.D. Ashley, D.G. Bridge (Eds.): Case-based reasoning research and development. 5th International Conference on Case-Based Reasoning, ICCBR 2003, Trondheim, Norway, June 23-26, 2003. Proceedings
Calcul et modélisation neuronale; J. Mira,
J.R. Álvarez (Eds.): Computational methods in neural modeling.
7th international work-conference on artificial and natural neural networks,
Iwann 2003, Maó, Menorca, Spain, June 3-6, 2003.
Proceedings,
Part II
et
J. Mira, J.R. Álvarez (Eds.): Computational methods in neural modeling
7th international work-conference on artificial and natural neural networks,
Iwann 2003, Maó, Menorca, Spain, June 3-6, 2003.
Proceedings,
Part I
Modélisation utilisant le contexte. P. Blackburn, C. Ghidini, R.M. Turner, F. Giunchiglia (Eds.): Modeling and using context 4th international and interdisciplinary conference, Context 2003, Stanford, CA, USA, June 23-25, 2003 Textes
Implantation de langages fonctionnels. R. Peña, T. Arts (Eds.): Implementation of functional languages 14th international workshop, IFL 2002, Madrid, Spain, September 16-18, 2002. Revised Papers
Technologies pour le logiciel fiable. J.-P. Rosen, A. Strohmeier (Eds.): Reliable Software Technologies -- Ada-Europe 2003 8th Ada-Europe international conference on reliable software technologies, Toulouse, France, June 16-20, 2003. Proceedings
Ecriture collective et internationale sur Internet pour l'apprentissage des langues et la pratique des technologies nouvelles (en français, anglais, allemand, espagnol et arabe)... l'EPI vient de mettre des documents en ligne sur son site , en particulier sur les récits virtuels.
Les romans virtuels ont été sélectionnés cette année et sont soutenus par la Commission européenne -e-learning, et d'autres partenaires, France Télécom, France5, TV5, T3W... 1 700 élèves et enseignants de 18 pays différents participent actuellement aux 7 projets en allemand, anglais , arabe, espagnol et français.
L'évènement, «Remise des prix des romans virtuels» et la rencontre réelle des participants gagnants, aura lieu le 27 Juin, à 18h à Sèvres/Paris, lors du colloque de la FIPF (Fédération internationale des professeurs de français).
L'introduction de l'informatique dans l¹enseignement obligatoire est une histoire passionnante à plus d¹un titre. Des plans d'équipement ont été mis en place dès 1980 et déjà deux théories se sont confrontées, les rapports Simon et Schwartz.
Il a fallu ensuite équiper d¹ordinateurs les établissements scolaires, écrire des instructions et des textes officiels et former les enseignants au maniement de cet objet. De textes et instructions officielles en lettres d'orientations parfois contradictoires, de plans d'équipements souvent controversés en de stages de formation quelquefois imprécis , quinze ans ont été nécessaires pour arriver à un consensus et à une utilisation raisonnée de l'ordinateur dans l¹enseignement obligatoire.
Cette histoire pleine de rebondissements, de plans restés secrets, d'effets d¹annonce, commencée sous Giscard d'Estaing, poursuivie sous Mitterrand, achevée sous Chirac avec leurs différentes cohabitations, a vécu (ou subi) les différentes visions des nombreux gouvernements qui se sont succédé dans cette période politiquement agitée.
L'auteur, est formateur aux Technologies de l¹information et de la communication à l¹université Paris IX Dauphine, chargé de la formation des enseignants au sein du Centre d¹ingénierie pédagogique (CIP). Il est également impliqué dans les processus de formations ouvertes et à distance (FOAD).
"Nous assistons à la fin du siècle des best of breed", a déclaré Léo Apotheker (president of global field operations and member of the executive board, SAP AG) à une réunion organisée le 12 juin dernier par le CPI (Club de la presse informatique et des télécommunications).
Autrement dit, les progiciels de gestion intégrés (PGI, ou ERP en Anglais) dont SAP est le fournisseur dominant, ne laissent plus de place aux progiciels de gestion spécialisés, ni au panachage de modules entre différents PGI. Pourquoi ? Parce que ces applications ont pris une telle importance pour les entreprises qu'elles ne peuvent plus prendre de risque, et ont tout intérêt à faire confiance à un fournisseur unique, puissant, disposant de l' "écosystème qui va avec", capable d'assumer pleinement ses lourdes responsabilités et devenant en outre un des conseillers privilégiés des dirigeants.
Dans cette optique, on ne voit pas la place qui resterait aux composants logiciels, aux Cots (components off the shelf) chers à notre RNTL et à tous ceux qui chérissent les avantages d'une concurrence permise par un libre assemblage des composants les meilleurs pour chaque fonction. Une granularité suffisamment fine laissait au contraire espérer une saine forme de darwinisme, pour le plus grand bien des petits fournisseurs...
L'orientation favorisée par SAP n'irait-elle pas, de plus, à contre-courant de la montée des web-services, qui tendent à prolonger la logique "composants" dans le jeu toujours plus fluides de services s'organisant en flots évolutifs grâce aux interfaces et annuaires normalisés (Soap, UDDI, XML... ) ?
A cette question, Léo Apotheker répond que son entreprise s'est engagée activement dans la promotion des web services et des standards d'échange d'informations. Elle a lancé sa plate-forme NetWeaver et vient encore de la renforcer. Mais, un communiqué daté du 11 juin le dit clairement, il s'agit surtout de compléter le coeur du PGI par des fonctions spécifiques à des industries déterminées. Dans une optique d'intégration et même plus. Citons : "Netweaver unifies and aligns people, information, and processes across organizational and technological boundaries". Ce qui n'empêche pas l'ouverture vers .net de Microsoft, J2EE de Sun et Websphere d'IBM. On est loin des thèmes libertaires du monde "libre"...
Quelle place peut-il rester aux universitaires intéressés par ce type d'informatique ? Il faut dire que, de toutes façons, en France au moins, les chercheurs en Stic sont bien rares à s'orienter vers ce type d'application de leur discipline. P.B.
Dans le cadre des journées de Paris ACM Siggraph professionnal and student chapter, le Lisaa (Institut supérieur des arts appliqués) accueille cette année "La journée des écoles de l'animation 3D, et du jeu vidéo" avec la participation d'écoles et de leurs associations d'élèves : ATI / Paris 8, Ensad, Eaaan Les Gobelins, Lisaa. .
Ces journées permettent d'avoir un large aperçu des travaux d'étudiant des écoles d'animation 3D, et de jeu vidéo, de rencontrer les étudiants diplômés, de discuter de leur travail, et de partager leur passion pour l'image numérique.
Le 2 juillet, à partir de 10h00 au Lisaa 55, rue du Cherche-Midi à
Paris. L'entrée est libre !
- Afia
- Afig
- Afihm
- ASF
- ACM Sigops
- Atala
- Atief
- Cigref
- Creis
- GRCE
- Gutenberg
- Inforsid
- Specif
L'université de Valenciennes poursuit depuis des années des travaux originaux sur les systèmes homme-machine, appuyant le développement de modèles théoriques sur une expérimentation poussée en laboratoire et sur le terrain. L'ouvrage que vient de publier Frédéric Vanderhaegen chez Hermès/Lavoisier ouvre de nouveaux horizons sur la fiabilité. Hier, il s'agissait surtout de se protéger du manque de fiabilité des machines. Aujourd'hui, on demande aux machines de se protéger des hommes !
Analyse et contrôle de l'erreur humaine propose "une approche multicritère et multiréférentielle, ACIH (analyse des conséquences de l'infiabilité humaine", pour évaluer les comportements humains erronés, détournés ou imprévus dans les systèmes homme-machine. Pour remédier à ces défaillances, l'ouvrage présente plusieurs algorithmes d'activation de "barrières" pemettant de contrôler l'occurrence ou les conséquences d'événements comme la genèse d'un accident, l'arrête de la production ou la dégradation des performances humaines."
Avec ce numéro nous mettons en ligne trois textes sur la télévision :
- Un extrait de Le vingtième siècle, d'Albert Robida, en 1884. Ce qu'il appelle "téléphonoscope" est à la fois la télévision (interactive et sur écran plat) et (dans d'autres passages), la visio-conférence. On notera dans ce passage, comme dans le reste des ouvrage de cet humoriste visionnaire, que son optimisme ne lui masque pas les risques liés à la diffusion de tels systèmes. (Nous n'avons pas pu obtenir, pou l'instant, de reproduction présentable des nombreuses illustrations). Robida ne n'est trompé que de six ans sur la date de l'ouverture publique de la télévision en France (voir plus bas).
Ce texte a certainement inspiré Jules Verne pour sa Journée d'un journaliste en 2889, qui figure déjà sur notre site en texte intégral, illustrations comprises. La force de ce dernier texte est d'avoir intégré la télévision dans un panorama très large de ce que pourrait devenir un jour une presse mettant en oeuvre largement les différents volets des TIC (par Internet, tout de même).
- Un extrait du livre "Interprétation du monde moderne", de Maurice Simart (Flammarion 1930) sur le cinéma et la TSF et leur diffusion dans le monde rural. Simart semble ignorer la montée de la télévision, qui commence pourtant à être connue à l'époque, puisque qu'Eugène Aisberg publie la même année (aux éditions Chiron) La transmission des images. Télévision et phototélégraphie. Principes fondamentaux, dans une édition destinée à un public relativement large de techniciens.
- L'allocution de Marcel Prévost La télévision pour l'inauguration de la Télévision française, le 31 mars 1939.